草庐IT

opens java.lang

全部标签

java.lang.UnsupportedOperationException : Not implemented by the DistributedFileSystem FileSystem implementation during FileSystem. 获取()

请查找随附的代码片段。我正在使用此代码将文件从hdfs下载到我的本地文件系统-Configurationconf=newConfiguration();FileSystemhdfsFileSystem=FileSystem.get(conf);Pathlocal=newPath(destinationPath);Pathhdfs=newPath(sourcePath);StringfileName=hdfs.getName();if(hdfsFileSystem.exists(hdfs)){hdfsFileSystem.copyToLocalFile(false,hdfs,local,

java - 线程 "main"java.lang.VerifyError : Bad type on operand stack 中的异常

此错误已发生在map-reduce程序中,用于在给定的input.txt文件中查找最高温度。我写了两列,分别是年份和温度。Exceptioninthread"main"java.lang.VerifyError:BadtypeonoperandstackExceptionDetails:Location:org/apache/hadoop/mapred/JobTrackerInstrumentation.create(Lorg/apache/hadoop/mapred/JobTracker;Lorg/apache/hadoop/mapred/JobConf;)Lorg/apache/h

java - HDInsight-Spark (spark-submit) 失败 - java.lang.NoSuchMethodError : com. microsoft.azure.storage.blob.CloudBlockBlob.startCopy

我们正在开发一个spark应用程序。它将托管在azureHDInsightSpark集群上。我们的用例是这样的,我们必须从azureblob存储中提取数据并使用spark处理数据,最后创建或将数据追加回azureblob存储。所以我们用了azure-storage-4.3.0.jar我们在eclipse项目中使用了Maven并添加了以下依赖com.microsoft.azureazure-storage4.3.0编译成功。甚至应用程序在本地机器上也能正常运行并且执行时没有任何问题。因此我们从eclipse创建了一个uber/fatjar并移植到我们的AzureHDInsight-Spa

Java.lang.finalize 堆在 hadoop url 解析作业期间变得太大

我正在尝试浏览url列表并分析其主页的内容。为此,我有一个没有缩减器的Hadoop映射器,它获取url并将它们发送到解析器类进行解析。解析器使用Jericho'shtmlparser的流式源类读取页面内容。它实际上使用缓冲阅读器接收所述页面的内容。我让它调用流式源和缓冲读取器类的close方法,之后我的映射器调用解析器toString方法并继续到下一个url。快速内存分析显示垃圾收集器似乎无法跟上一堆终结对象。我听说过关于System.gc()可靠性的坏消息,所以我想知道是否有另一种更简洁的方法来摆脱这个巨大的finalize对象堆。 最佳答案

java - ClassCastException:java.lang.Exception: mapred 中的 java.lang.ClassCastException

我正在编写一个mapreduce应用程序,它接受(键,值)格式的输入并只显示与reducer输出相同的数据。这是示例输入:1500s11960s1Aldus1在下面的代码中,我使用>指定输入格式,并在main()中将分隔符指定为制表符。当我运行代码时,我遇到了错误消息:java.lang.Exception:java.lang.ClassCastException:org.apache.hadoop.io.Textcannotbecasttoorg.apache.hadoop.io.LongWritableatorg.apache.hadoop.mapred.LocalJobRunne

hadoop - 使用 Hive TableView 映射与 Hbase 表 : java. lang.NoSuchMethodError : org. apache.hadoop.hive.serde2.lazy 在 spark 上运行 Hive 的问题

我正在尝试通过Spark引擎从配置单元映射来访问Hbase表。来自hive:当我在使用Hbase映射的HiveView上运行查询时,我可以获得所有想要的结果。来自星火:当我运行查询以从配置单元表中获取数据时,我可以得到它,但是当我对hbase映射的配置单元表执行相同的操作时,出现以下错误。Error:java.lang.NoSuchMethodError:org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe.initSerdeParams(Lorg/apache/hadoop/conf/Configuration;Ljava/util/P

java.lang.NoClassDefFoundError : com/google/common when trying to create a Configuration object 错误

我正在尝试从java中与我的HDFS进行交互。当我尝试创建一个新的Configuration对象时配置conf=newConfiguration();我的应用程序抛出这个错误Exceptioninthread"main"java.lang.NoClassDefFoundError:com/google/common/base/Preconditionsatorg.apache.hadoop.conf.Configuration$DeprecationDelta.(Configuration.java:306)atorg.apache.hadoop.conf.Configuration$

java - YarnClient 运行时异常 : java. lang.NoClassDefFoundError: org/apache/hadoop/HadoopIllegalArgumentException

我是第一次使用YarnClient。我的目标是使用Java获取并显示在Yarn上运行的应用程序。我的项目设置如下:publicstaticvoidmain(String[]args)throwsIOException,YarnException{//CreateyarnClientYarnConfigurationconf=newYarnConfiguration();YarnClientyarnClient=YarnClient.createYarnClient();yarnClient.init(conf);try{Listapplications=yarnClient.getAp

c++ - Hadoop 2.6 java.lang.nullpointerexception

我正在尝试运行wordcount示例classWordCountMapper:publicHadoopPipes::Mapper{public://constructor:doesnothingWordCountMapper(HadoopPipes::TaskContext&context){}//mapfunction:receivesaline,outputs(word,"1")//toreducer.voidmap(HadoopPipes::MapContext&context){//---getlineoftext---stringline=context.getInputVa

JAVA - SPARK - saveAsTextFile 不能应用于 '(java.lang.String, org.apache.hadoop.io.compress.CompressionCodec)'

我正在使用Spark在JAVA中编写程序。我有一个名为“copied_logs”的JavaRDD,它使用映射并从位于hdfs上的日志中复制几个字段。现在,我想用Bzip2压缩“copied_logs”然后保存。我想使用“saveAsTextFile”函数将这些数据保存在hdfs上。我的压缩保存代码如下:CompressionCodeccodec=newBZip2Codec();copied_logs.saveAsTextFile(output_dir+"copied_logs.json",codec);但是我得到这个错误:Error:(128,69)java:incompatiblet